"Deepfake de Sobyanin": Hackers clonaram chefes regionais para enganar clientes bancários

Os cibercriminosos adotaram tecnologias de inteligência artificial (IA). Eles começaram a usar maciçamente imagens de autoridades e empresários famosos para atrair dinheiro dos russos. Leia sobre como isso funciona no artigo da NI.
Um novo tipo de fraude está se espalhando rapidamente online usando deepfakes – imagens de pessoas famosas trazidas à vida usando tecnologia de IA.
Já foram descritos casos em que russos são persuadidos a “transferir dinheiro para uma conta segura” ou investir economias em um “negócio super lucrativo” por meio de imagens eletrônicas com a aparência e a voz de chefes de regiões russas, artistas famosos e empreendedores bem-sucedidos.
“Na semana passada, uma nova onda de vídeos falsos com chefes de regiões russas apareceu nas redes sociais. Os fraudadores criaram canais falsos no Telegram dos governadores de Vologda, Smolensk, Samara e outras regiões, onde espalharam desinformação”, relatou o UBK do Ministério de Assuntos Internos da Rússia (polícia cibernética do Ministério de Assuntos Internos da Federação Russa).
O Ministério do Desenvolvimento Digital esclareceu que o primeiro deepfake com o prefeito de Moscou, Sergei Sobyanin, apareceu na Internet há um ano e meio.
O fundador do Instituto de Tecnologias Financeiras e de Investimento, Alexey Primak, lembra que antes, para atingir seus objetivos nefastos, os fraudadores “apenas” enviavam uma mensagem de texto ou e-mail de uma pessoa “próxima” que estava com problemas e precisava de dinheiro. Entretanto, agora suas capacidades técnicas aumentaram significativamente.
“Agora os golpistas fazem áudio, sintetizam voz e criam mensagens de vídeo”, alerta o especialista.
O arsenal de tecnologias de IA disponíveis para fraudadores está se expandindo rapidamente. Foto: Imagem de Midjourney
Hoje em dia, a “clonagem” digital de imagens de outras pessoas usando tecnologias de IA se tornou generalizada. A polícia cibernética esclareceu que a divulgação de informações supostamente de autoridades pode ter diversos objetivos, desde phishing até influência psicológica com o objetivo de desestabilizar a situação.
O chefe do Departamento de Personologia e Análise Comportamental da Academia de Tecnologias Sociais, psiquiatra, psicólogo e especialista em detecção de mentiras, Alexey Filatov, disse à NI que anteriormente o país já havia registrado incidentes em massa de envio de mensagens de áudio falsas em nome de chefes de empresas municipais, universidades, escolas, hospitais e outras organizações.
“As falsificações de áudio têm um grau maior de confiança porque são mais envolventes e sua autenticidade é menos facilmente verificada”, explicou o especialista.
Ele ressaltou que, primeiro, os invasores coletam amostras da voz de uma pessoa (por exemplo, de discursos públicos, entrevistas, gravações de áudio) e, então, usando redes neurais, sintetizam frases falsas que imitam o timbre, a entonação e a maneira de falar da pessoa.
“Modelos modernos permitem que você crie tais amostras em questão de minutos e, em combinação com a geração de vídeos deepfake, os golpistas podem até imitar videochamadas. Hoje, há pelo menos uma dúzia de sites abertos e programas especializados na Internet que permitem que quase qualquer pessoa com habilidades médias em informática faça isso”, esclareceu Alexey Filatov.
De acordo com o chefe do departamento analítico da empresa de investimentos "Rikom-Trust", Ph.D. n. Oleg Abelev , participantes do mercado financeiro podem instalar proteção contra deepfakes.
“Hoje, trata-se de um software que permite uma melhor identificação dos clientes pelo fato de fornecerem informações adicionais para concluir uma transação, identificação multifatorial, quando o sistema de segurança verifica não só o código, mas também o próprio dispositivo de onde é feita a solicitação de dados pessoais, o endereço IP, a localização, bem como sistemas antifraude que são treinados em operações típicas.
E se algo incomum acontecer, essa operação será verificada no banco de dados de amostras de atividades fraudulentas e, se houver uma correspondência, a operação será bloqueada automaticamente até que o proprietário da conta forneça a confirmação necessária”, disse o especialista.
Ele está confiante de que, quando surgir um software capaz de reconhecer deepfakes, poderemos dizer que a IA está protegendo os interesses e fundos de clientes de bancos e outras empresas financeiras.
No entanto, as tecnologias de proteção ao usuário ainda estão atrasadas em relação ao ritmo de atividade técnica dos fraudadores.
“As empresas de desenvolvimento já estão testando algoritmos de detecção de falsificações analisando microvibrações na voz, anomalias na síntese de fala e artefatos na renderização visual. Alguns bancos e mensageiros estão desenvolvendo mecanismos de autenticação com base em fatores adicionais, incluindo uma solicitação para pronunciar palavras aleatórias, análise de características biométricas e verificação de metadados de arquivos de áudio. No entanto, ainda não existe uma solução massiva e confiável”, alertou o especialista Alexey Filatov .
De acordo com o Ministério do Interior, em resposta às reclamações dos usuários sobre a proliferação de “clones” de funcionários, a administração do mensageiro Telegram já identificou e marcou canais suspeitos com deepfakes como não confiáveis. Alguns deles foram completamente removidos. No entanto, os golpistas que tentam roubar as carteiras dos russos não estão parados: eles estão criando cada vez mais imagens falsas que imitam a aparência e a voz do original com precisão meticulosa.
“Recomendamos que os usuários confiem apenas em fontes confiáveis. Não seria uma má ideia verificar a inclusão do canal na lista de páginas pessoais dos usuários das redes sociais, cujo público de cada uma delas é superior a dez mil usuários”, aconselhou a polícia cibernética.
O psicólogo Alexey Filatov acrescentou que, em qualquer situação, o principal é permanecer vigilante e calmo.
“Se você receber de repente uma ligação do ‘governador’, de um policial, uma mensagem de voz de um gerente ou de um ‘funcionário do banco’ pedindo para você fazer algo urgentemente, é preciso ficar atento: é tudo um golpe”, está convencido o especialista.
Especialistas aconselham não entrar em pânico ao lidar com golpistas. Foto: Imagem de Midjourney
Para não se tornar vítima de criminosos, o especialista recomenda voltar a jogar pelo seguro.
“Use canais de verificação adicionais: ligue de volta para contatos oficiais, faça perguntas que o falso pode não saber as respostas. “Não confie cegamente em videochamadas, especialmente se a qualidade da imagem for estranha e as expressões faciais parecerem artificiais”, aconselhou Alexey Filatov .
O especialista Alexey Primak recomenda manter o controle em qualquer situação e não permitir que o pânico destrua suas defesas.
“Vamos falar separadamente sobre fraude de investimento. Graças aos deepfakes, vídeos de pessoas famosas aparecem na Internet, por exemplo Pavel Durov , Oleg Tinkov* e outras personalidades famosas. E se de repente uma pessoa famosa anuncia, digamos, um novo terminal de negociação de criptomoedas, pessoas ingênuas perdem a vigilância. O objetivo de tudo isso é enganar os investidores.
Lembre-se: um comercial de uma pessoa famosa, principalmente se o assunto do anúncio não tiver nenhuma ligação com ela e não for seu negócio, não é motivo para investir. Se o resultado do investimento parece muito doce e tentador, e a lucratividade é boa demais para ser verdade, geralmente é 100% uma fraude”, alerta Alexey Primak.
A voz da atriz russa Alena Andronova, gravada para uma narração de um aplicativo bancário, foi roubada por criadores de sites pornográficos. Foto: Campeonato
Vale ressaltar que no Ocidente a tecnologia de uso de deepfakes já é difundida há muito tempo e é completamente legal. Inicialmente, ele foi criado, entre outras coisas, como um meio de proteger a saúde e a vida de atores de cinema ao realizar acrobacias complexas. No entanto, a prática de usar deepfakes se espalhou tanto que clones digitais começaram a substituir pessoas vivas, o que levou a greves de atores.
A Rússia também teve sua cota de escândalos artísticos.
A atriz disse que entrou com uma ação judicial para proteger sua honra e dignidade contra o Tinkoff Bank. Ela acusou a instituição de crédito de roubar amostras de sua voz, que, contra a vontade da atriz, “migraram” dos serviços de áudio do banco para locuções para anúncios de sites pornográficos .
Andronova exigiu 6 milhões de rublos do banco no tribunal. Ela também anunciou sua intenção de se unir aos dubladores e ao Sindicato dos Locutores Russos para buscar proteção legislativa das vozes. Andronova afirmou que é necessário proteger a voz do cidadão em igualdade de condições com sua imagem e proibir que pessoas de fora usem uma gravação de voz para sintetizar a fala, a menos que isso esteja claramente indicado entre os propósitos da gravação.
*Adicionado ao registro de agentes estrangeiros pelo Ministério da Justiça da Rússia.
newizv.ru